home *** CD-ROM | disk | FTP | other *** search
/ SuperHack / SuperHack CD.bin / CODING / MISC / NUD-1014.ZIP / NUD-1014.TXT
Encoding:
Internet Message Format  |  1992-11-29  |  31.4 KB

  1. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  2. To: Neuron-Distribution: ;
  3. Subject: Neuron Digest V10 #14 (conferences)
  4. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  5. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  6. Organization: University of Pennsylvania
  7. Date: Wed, 04 Nov 92 10:29:59 EST
  8. Message-ID: <16868.720890999@cattell.psych.upenn.edu>
  9. Sender: marvit@cattell.psych.upenn.edu
  10.  
  11. Neuron Digest   Wednesday,  4 Nov 1992
  12.                 Volume 10 : Issue 14
  13.  
  14. Today's Topics:
  15.                         NIPS*92 WORKSHOP PROGRAM
  16.  
  17.  
  18. Send submissions, questions, address maintenance, and requests for old
  19. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  20. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  21. requested by mail will eventually be sent, but may take a while.
  22.  
  23. ----------------------------------------------------------------------
  24.  
  25. Subject: NIPS*92 WORKSHOP PROGRAM
  26. From:    Steve Hanson <jose@tractatus.siemens.com>
  27. Date:    Fri, 02 Oct 92 14:41:40 -0500
  28.  
  29.  
  30.                         NIPS*92 WORKSHOP PROGRAM
  31.  
  32.  
  33. For Further information and queries on workshop please
  34. respond to WORKSHOP CHAIRPERSONS listed below
  35.  
  36. =========================================================================
  37. Character Recognition Workshop
  38.  
  39. Organizers: C. L. Wilson and M. D. Garris, NIST
  40.  
  41. Abstract:
  42. In order to discuss recent developments and research in OCR technology,
  43. six speakers have been invited to share from their organization's own
  44. perspective on the subject. Those invited, represent a diversified
  45. group of organizations actively developing OCR systems. Each speaker
  46. participated in the first OCR Systems Conference sponsored by the Bureau
  47. of the Census and hosted by NIST. Therefore, the impressions and results
  48. gained from the conference should provide significant context for
  49. discussions.
  50.  
  51. Invited presentations:
  52. C. L. Wilson, NIST, "Census OCR Results - Are Neural Networks Better?"
  53. T. P. Vogl, ERIM, "Effect of Training Set Size on OCR Accuracy"
  54. C. L. Scofield, Nestor, "Multiple Network Architectures for Handprint
  55.                          and Cursive Recognition"
  56. A. Rao, Kodak, "Directions in OCR Research and Document Understanding
  57.                 at Eastman Kodak Company"
  58. C. J. C. Burges, ATT, "Overview of ATT OCR Technology"
  59. K. M. Mohiuddin, IBM, "Handwriting OCR Work at IBM Almaden Research Center"
  60. =========================================================================
  61. Neural Chips: State of the Art and Perspectives.
  62.  
  63. Organizer: Eros Pasero   pasero@polito.it
  64.  
  65. Abstract:
  66. We will encourage lively audience discussion of important issues
  67. in neural net hardware, such as:
  68. - - Taxonomy: neural computer, neural processor, neural coprocessor
  69. - - Digital vs. Analog: limits and benefits of the two approaches.
  70. - - Algorithms or neural constraints?
  71. - - Neural chips implemented in universities
  72. - - Industrial chips (e.g. Intel, AT&T, Synaptics)
  73. - - Future perspectives
  74.  
  75. Invited presentations: TBA
  76. =========================================================================
  77. Reading the Entrails: Understanding What's Going On Inside a Neural Net
  78.  
  79. Organizer: Scott E. Fahlman, Carnegie Mellon University
  80.            fahlman@cs.cmu.edu
  81.  
  82. Abstract:
  83. Neural networks can be viewed as "black boxes" that learn from examples,
  84. but often it is useful to figure out what sort of internal knowledge
  85. representation (or set of "features") is being employed, or how the inputs
  86. are combined to produce particular outputs.  There are many reasons why we
  87. might seek such understanding: It can tell us which inputs really are
  88. needed and which are the most critical in producing a given output.  It can
  89. produce explanations that give us more confidence in the network's
  90. decisions.  It can help us to understand how the network would react to new
  91. situations.  It can give us insight into problems with the network's
  92. performance, stability, or learning behavior.  Sometimes, it's just a
  93. matter of scientific curiosity: if a network does something impressive, we
  94. want to know how it works.
  95.  
  96. In this workshop we will survey the available techniques for understanding
  97. what is happening inside a neural network, both during and after training.
  98. We plan to have a number of presenters who can describe or demonstrate
  99. various network-understanding techniques, and who can tell us what useful
  100. insights were gained using these techniques.  Where appropriate, presenters
  101. will be encouraged to use slides or videotape to illustrate their favorite
  102. methods.
  103.  
  104. Among the techniques we will explore are the following: Diagrams of
  105. weights, unit states, and their trajectories over time.  Diagrams of the
  106. receptive fields of hidden units.  How to create meaningful diagrams in
  107. high-dimensional spaces.  Techniques for extracting boolean or fuzzy
  108. rule-sets from a trained network.  Techniques for extracting explanations
  109. of individual network outputs or decisions.  Techniques for describing the
  110. dynamic behavior of recurrent or time-domain networks.  Learning
  111. pathologies and what they look like.
  112.  
  113. Invited presentations:
  114. Still to be determined.  The workshop organizer would like to hear from
  115. potential speakers who would like to give a short presentation of the kind
  116. described above.  Techniques that have proven useful in real-world problems
  117. are especially sought, as are short videotape segments showing network
  118. =========================================================================
  119. COMPUTATIONAL APPROACHES TO BIOLOGICAL SEQUENCE ANALYSIS--
  120.    NEURAL NET VERSUS TRADITIONAL PERPECTIVES
  121.  
  122. Organizers: Paul Stolorz, Santa Fe Institute and Los Alamos National Lab
  123.             Jude Shavlik, University of Wisconsin.
  124.  
  125. Abstract:
  126. There has been a good deal of recent interest in the use of neural
  127. networks to tackle several important biological sequence analysis
  128. problems. These problems range from the prediction of protein secondary
  129. and tertiary structure, to the prediction of DNA protein coding regions
  130. and regulatory sites, and the identification of homologies. Several
  131. promising developments have been presented at NIPS meetings in the past
  132. few years by researchers in the connectionist field.
  133. Furthermore, a number of structural biologists and chemists have been
  134. successfully using neural network methods.
  135.  
  136. The sequence analysis applications encompass a rather large amount of
  137. neural network territory, ranging from feed forward architectures
  138. to recurrent nets, Hidden Markov Models and related approaches.
  139. The aim of this workshop is to review the progress made by these disparate
  140. strands of endeavor, and to analyze their respective strengths and weaknesses.
  141. In addition, the intention is to compare the class of neural network methods
  142. with alternative approaches, both new and traditional. These alternatives
  143. include knowledge based reasoning, standard non-parametric statistical
  144. analysis,
  145. Hidden Markov models and statistical physics methods.
  146. We hope that by careful consideration and comparison of
  147. neural nets with several of the alternatives mentioned above, methods can be
  148. found which are superior to any of the individual techniques developed to date.
  149. This discussion will be a major focus of the workshop, and we both anticipate
  150. and encourage vigorous debate.
  151.  
  152. Invited presentations:
  153. Jude Shavlik, U. Wisconsin: Learning Important Relations in Protein Structures
  154. Gary Stormo, U. Colorado: TBA
  155. Larry Hunter, National Library of Medicine:
  156.      Bayesian Clustering of Protein Structures
  157. Soren Brunak, DTH: Network analysis of protein structure and the genetic code
  158. David Haussler, U.C. Santa Cruz: Modeling Protein Families with Hidden
  159.      Markov Models
  160. Paul Stolorz and Joe Bryngelson, Santa Fe Institute and Los Alamos:
  161.      Information Theory and Statistical Physics in Protein Structures
  162. =========================================================================
  163. Statistical Regression Methods and Feedforward Nets
  164.  
  165. Organizers: Lei Xu, Harvard Univ. and Adam Krzyzak, Concordia Univ.
  166.  
  167. Abstract:
  168. Feedforward neural networks are often used  for function
  169. approximation, density estimation and pattern classification.
  170. These tasks are also the purposes of statistical regression
  171. methods. Some methods used in the literature of neural networks
  172. and the literature of statistical regression are same, some are
  173. different, and some have close relations. Recently, the
  174. connections between the methods in the two literatures have been
  175. explored from a number of aspects. E.g.,  (1) connecting feedforward
  176. nets to parametric statistical regression for  theoretical studies
  177. about multilayer feedforward nets;  (2) relating the
  178. performances  of feedforward nets to the trade-off of bias and
  179. variances in nonparameter statistics. (3) connecting Radial Basis
  180. function nets to Nonparameter Kernal Regression to get  several
  181. new theoretical results on approximation  ability, convergence
  182. rate and receptive field size of  Radial Basis Function networks;
  183. (4)  using VC dimension to study the generalization ability of
  184. multilayer feedforward nets; (5)  using other statistical methods
  185. such as projection pursuit,  cross-validation, EM algorithm, CART,
  186. MARS for training feedforward nets. Not only in these mentioned
  187. aspects there are still many interesting and open issues to be
  188. further explored. But also,  in the literature of statistical
  189. regression there are many other methods and theoretical results
  190. on both nonparametric regression  and parameteric regression (e.g.,
  191. L1 kernal estimation,  ..., etc).
  192.  
  193. Invited presentations:
  194. Presentations will include arranged talks and submissions.  Submis-
  195. sions can be sent to either of the two organizers by Email before
  196. Nov.15, 1992. Each submission can be an abstract of 200--400 words.
  197. =========================================================================
  198. Computational Models of Visual Attention
  199.  
  200. Organizer: Pete Sandon, Dartmouth College
  201.  
  202. Abstract:
  203. Visual attention refers to the process by which some part of the
  204. visual field is selected over other parts for preferential processing.
  205. The details of the attentional mechanism in humans has been the subject
  206. of much recent psychophysical experimentation.
  207. Along with the abundance of new data, a number of theories of attention
  208. have been proposed, some in the form of computational models
  209. simulated on computers.
  210. The goal of this workshop is to bring together computational modelers
  211. and experimentalists to evaluate the status of current theories
  212. and to identify the most promising avenues for improving
  213. understanding of the mechanisms and behavioral roles of visual
  214. attention.
  215.  
  216. Invited presentations:
  217.  Pete Sandon "The time course of selection"
  218.  John Tsotsos "Inhibitory beam model of visual attention"
  219.  Kyle Cave "Mapping the Allocation of Spatial Attention:
  220.             Knowing Where Not to Look"
  221.  Mike Mozer "A principle for unsupervised decomposition and hierarchical
  222.              structuring of visual objects"
  223.  Eric Lumer "On the interaction between perceptual grouping, object
  224.              selection, and spatial orientation of attention"
  225.  Steve Yantis "Mechanisms of human visual attention:
  226.                Bottom-up and top-down influences"
  227. =========================================================================
  228. Comparison and Unification of Algorithms, Loss Functions
  229. and Complexity Measures for Learning
  230.  
  231. Organizers: Isabelle Guyon, Michael Kearns and Esther Levin, AT&T Bell Labs
  232.  
  233. Abstract:
  234. The purpose of the workshop is an attempt to clarify and unify the
  235. relationships
  236. between many well-studied learning algorithms, loss functions, and
  237. combinatorial
  238. and statistical measures of learning problem complexity.
  239.  
  240. Many results investigating the principles underlying supervised learning from
  241. empirical observations have the following general flavor: first, a "general
  242. purpose" learning algorithm is chosen for study (for example, gradient descent
  243. or maximum a posteriori). Next, an appropriate loss function is selected, and
  244. the details of the learning model are specified (such as the mechanism
  245. generating
  246. the observations). The analysis results in a bound on the loss of the algorithm
  247. in terms of a "complexity measure" such as the Vapnik-Chervonenkis dimension
  248. or the statistical capacity.
  249.  
  250. We hope that reviewing the literature with an explicit emphasis on comparisons
  251. between algorithms, loss functions and complexity measures will result in a
  252. deeper understanding of the similarities and differences of the many possible
  253. approaches to and analyses of supervised learning, and aid in extracting the
  254. common general principles underlying all of them. Significant gaps in our
  255. knowledge concerning these relationships will suggest new directions in
  256. research.
  257.  
  258. Half of the available time has been reserved for discussion and informal
  259. presentations.  We anticipate and encourage active audience participation.
  260. Each discussion period will begin by soliciting topics of interest from the
  261. participants for investigation. Thus, participants are strongly encouraged
  262. to think about issues they would like to see discussed and clarified prior
  263. to the workshop.  All talks will be tutorial in nature.
  264.  
  265. Invited presentations:
  266.   Michael Kearns, Isabelle Guyon and Esther Levin:
  267.         -Overview on loss functions
  268.         -Overview on general purpose learning algorithms
  269.         -Overview on complexity measures
  270.   David Haussler: Overview on "Chinese menu" results
  271. =========================================================================
  272. Activity-Dependent Processes in Neural Development
  273.  
  274. Organizer: Adina Roskies, Salk Institute
  275.  
  276. Abstract: This workshop will focus on the role of activity in setting
  277. up neural architectures. Biological systems rely upon a variety of
  278. cues, both activity-dependent and independent, in establishing their
  279. architectures. Network architectures have traditionally been
  280. pre-specified, but it is ongoing construction of architectures may
  281. endow networks with more computational power than do static
  282. architectures.  Biological issues such as the role of activity in
  283. development, the mechanisms by which it operates, and the type of
  284. activity necessary will be explored, as well as computational issues
  285. such as the computational value of such processes, the relation to
  286. hebbian learning, and constructivist algorithms.
  287.  
  288. Invited presentations:
  289.         General Overview (Adina Roskies)
  290.         The role of NMDA in cortical development (Tony Bell)
  291.         Optimality, local learning rules, and the emergence of function in a
  292.                 sensory processing network (Ralph Linsker)
  293.         Mechanisms and models of neural development through rapid
  294.                 volume signals (Read Montague)
  295.         The role of activity in cortical development and plasticity
  296.                 (Brad Schlaggar)
  297.         Computational advantages of constructivist algorithms (Steve Quartz)
  298.         Learning, development, and evolution (Rik Belew)
  299. =========================================================================
  300. DETERMINSTIC ANNEALING AND COMBINATORIAL OPTIMIZATION
  301.  
  302. Organizer: Anand Rangarajan, Yale Univ.
  303.  
  304. Abstract: Optimization problems defined on ``mixed variables'' (analog
  305. and digital) occur in a wide variety of connectionist applications.
  306. Recently, several advances have been made in deterministic annealing
  307. techniques for optimization. Deterministic annealing is a faster and
  308. more efficient alternative to simulated annealing. This workshop
  309. will focus on several of these new techniques (emerging in the last
  310. two years). Topics include improved elastic nets for the traveling salesman
  311. problem, new algorithms for graph matching, relationship between
  312. deterministic annealing algorithms and older, more conventional techniques,
  313. applications in early vision problems like surface reconstruction, internal
  314. generation of annealing schedules, etc.
  315.  
  316. Invited presentations:
  317.         Alan Yuille, Statistical Physics algorithms that converge
  318.         Chien-Ping Lu, Competitive elastic nets for TSP
  319.         Paul Stolorz, Recasting deterministic annealing as constrained
  320.         optimization
  321.         Davi Geiger, Surface reconstruction from uncertain data
  322.         on images and stereo images.
  323.         Anand Rangarajan, A new deterministic annealing algorithm for
  324.         graph matching
  325. =========================================================================
  326. The Computational Neuron
  327.  
  328. Organizer: Terry Sejnowski, Salk Institute (tsejnowski@ucsd.edu)
  329.  
  330. Abstract:
  331. Neurons are complex dynamical systems.  Nonlinear properties arise
  332. from voltage-sensitive ionic currents and synaptic conductances; branched
  333. dendrites provide a geometric substrata for synaptic integration and learning
  334. mechanisms.  What can subthreshold nonlinearities in dendrites be used to
  335. compute?  How do the time courses of ionic currents affect synaptic
  336. integration and Hebbian learning mechanisms?  How are ionic channels in
  337. dendrites regulated?  Why are there so many different types of neurons?
  338. These are a few of the issues that will we will be discussing.  In addition to
  339. short scheduled presentations designed to stimulate discussion, we invite
  340. members of the audience to present  one-viewgraph talks to introduce
  341. additional topics.
  342.  
  343. Invited presentations:
  344.         Larry Abbott - Neurons as dynamical systems.
  345.         Tony Bell - Self-organization of ionic channels in neurons.
  346.         Tom McKenna - Single neuron computation.
  347.         Bart Mel - Computing capacity of dendrites.
  348. =========================================================================
  349. ROBOT LEARNING
  350.  
  351. Organizers: Sebastian Thrun (CMU), Tom Mitchell (CMU), David Cohn (MIT)
  352.  
  353. Abstract:
  354. Robot learning has grasped the attention of many researchers over the
  355. past few years. Previous robotics research has demonstrated the
  356. difficulty of manually encoding sufficiently accurate models of the
  357. robot and its environment to succeed at complex tasks. Recently a wide
  358. variety of learning techniques ranging from statistical calibration
  359. techniques to neural networks and reinforcement learning have been
  360. applied to problems of perception, modeling and control.  Robot
  361. learning is characterized by sensor noise, control error, dynamically
  362. changing environments and the opportunity for learning by
  363. experimentation.
  364.  
  365. This workshop will provide a forum for researchers active in the area
  366. of robot learning and related fields.  It will include informal
  367. tutorials and presentations of recent results, given by experts in
  368. this field, as well as significant time for open discussion.  Problems
  369. to be considered include: How can current learning robot techniques
  370. scale to more complex domains, characterized by massive sensor input,
  371. complex causal interactions, and long time scales?  How can previously
  372. acquired knowledge accelerate subsequent learning? What
  373. representations are appropriate and how can they be learned?
  374.  
  375. Invited speakers:
  376.         Chris Atkeson
  377.         Steve Hanson
  378.         Satinder Singh
  379.         Andrew W. Moore
  380.         Richard Yee
  381.         Andy Barto
  382.         Tom Mitchell
  383.         Mike Jordan     
  384.         Dean Pomerleau
  385.         Steve Suddarth
  386. =========================================================================
  387. Connectionist Approaches to Symbol Grounding
  388.  
  389. Organizers: Georg Dorffner, Univ. Vienna; Michael Gasser, Indiana Univ.
  390.             Stevan Harnad, Princeton Univ.
  391.  
  392. Abstract:
  393. In recent years, there has been increasing discomfort with the
  394. disembodied nature of symbols that is a hallmark of the symbolic
  395. paradigm in cognitive science and artificial intelligence and at the
  396. same time increasing interest in the potential offered by
  397. connectionist models to ``ground'' symbols.
  398. In ignoring the mechanisms by which their symbols get ``hooked up'' to
  399. sensory and motor processes, that is, the mechanisms by which
  400. intelligent systems develop categories, symbolists have missed out on
  401. what is not only one of the more challenging areas in cognitive
  402. science but, some would argue, the very heart of what cognition is about.
  403. This workshop will focus on issues in neural network based
  404. approaches to the grounding of symbols and symbol structures.
  405. In particular, connectionist models of categorisation and
  406. of label-category association will be discussed in the light of
  407. the symbol grounding problem.
  408.  
  409. Invited presentations:
  410. "Grounding Symbols in the Analog World of Objects: Can Neural
  411. Nets Make the Connection?" Stevan Harnad, Princeton University
  412.  
  413. "Learning Perceptually Grounded Lexical Semantics"
  414. Terry Regier, George Lakoff, Jerry Feldman, ICSI Berkeley
  415.  
  416. T.B.A.  Gary Cottrell, Univ. of California, San Diego
  417.  
  418. "Learning Perceptual Dimensions" Michael Gasser, Indiana University
  419.  
  420. "Symbols and External Embodiments - why Grounding has to Go
  421. Two Ways" Georg Dorffner, University of Vienna
  422.  
  423. "Grounding Symbols on Conceptual Knowledge" Philippe Schyns, MIT
  424. =========================================================================
  425. Continuous Speech Recognition: Is there a connectionist advantage?
  426.  
  427. Organizer: Michael Franzini (maf@cs.cmu.edu)
  428.  
  429. Abstract:
  430. This workshop will address the following questions: How do neural
  431. networks  compare  to  the alternative technologies available for
  432. speech recognition?  What evidence is available to  suggest  that
  433. connectionism  may  lead  to  better  speech recognition systems?
  434. What comparisons have been performed  between  connectionist  and
  435. non-connectionist  systems,  and how ``fair'' are these comparis-
  436. ons?  Which approaches to connectionist speech  recognition  have
  437. produced  the  best  results, and which are likely to produce the
  438. best results in the future?
  439.  
  440. Traditionally, the selection criteria for NIPS papers  reflect  a
  441. much  greater  emphasis on theoretical importance of work than on
  442. performance figures, despite the fact that  recognition  rate  is
  443. one  of  the most important considerations for speech recognition
  444. researchers (and often is  {\em the}  most  important  factor  in
  445. determining  their  financial  support).   For  this reason, this
  446. workshop -- to be oriented more towards performance  than  metho-
  447. dology -- will be of interest to many NIPS participants.
  448.  
  449. The issue of connectionist vs. HMM performance in speech recogni-
  450. tion  is  controversial in the speech recognition community.  The
  451. validity of past comparisons is often disputed, as is the  funda-
  452. mental  value  of  neural networks.  In this workshop, an attempt
  453. will be made to address this issue and the questions stated above
  454. by  citing  specific experimental results and by making arguments
  455. with a theoretical basis.
  456.  
  457. Preliminary list of speakers:
  458.         Ron Cole
  459.         Uli Bodenhausen
  460.         Hermann Hild
  461. =========================================================================
  462. Symbolic and Subsymbolic Information Processing in
  463.         Biological Neural Circuits and Systems
  464.  
  465. Organizer: Vasant Honavar (honavar@iastate.edu)
  466.  
  467. Abstract:
  468. Traditional information processing models in cognitive psychology
  469. which became popular with the advent of the serial computer tended
  470. to view cognition as discrete, sequential symbol processing.
  471. Neural network or connectionist models offer an alternative paradigm
  472. for modelling cognitive phenomena that relies on continuous, parallel
  473. subsymbolic processing. Biological systems appear to combine both
  474. discrete as well as continuous, sequential as well as parallel,
  475. symbolic as well as subsymbolic information processing in various
  476. forms at different levels of organization. The flow of neurotransmitter
  477. molecules and of photons into receptors is quantal; the depolarization
  478. and hyperpolarization of neuron membranes is analog; the genetic code
  479. and the decoding processes appear to be digital; global interactions
  480. mediated by neurotransmitters and slow waves appear to be both analog and
  481. digital.
  482.  
  483. The purpose of this workshop is to bring together interested
  484. computer scientists, neuroscientists, psychologists, mathematicians,
  485. engineers, physicists and systems theorists to examine and discuss
  486. specific examples as well as general principles (to the extent they can
  487. be gleaned from our current state of knowledge) of information processing
  488. at various levels of organization in biological neural systems.
  489.  
  490. The workshop will consist of several short presentations by participants
  491. There will be ample time for informal presentations and discussion centering
  492. around a number of key topics such as:
  493.  
  494. *  Computational aspects of symbolic v/s subsymbolic information processing
  495. *  Coordination and control structures and processes in neural systems
  496. *  Encoding and decoding structures and processes in neural systems
  497. *  Generative structures and processes in neural systems
  498. *  Suitability of particular paradigms for modelling specific phenomena
  499. *  Software requirements for modelling biological neural systems
  500.  
  501. Invited presentations: TBA
  502. Those interested in giving a presentation should write to honavar@iastate.edu
  503. =========================================================================
  504. Computational Issues in Neural Network Training
  505.  
  506. Organizers: Scott Markel and Roger Crane, Sarnoff Research
  507.  
  508. Abstract:
  509. Many of the best practical neural network training results are report-
  510. ed by researchers who use variants of back-propagation and/or develop
  511. their own algorithms.  Few results are obtained by using classical nu-
  512. merical optimization methods although such methods can be used effec-
  513. tively for many practical applications.   Many competent researchers
  514. have concluded, based on their own experience, that classical methods
  515. have little value in solving real problems.  However, use of the best
  516. commercially available implementations of such algorithms can help in
  517. understanding numerical and computational issues that arise in all
  518. training methods. Also, classical methods can be used effectively to
  519. solve practical problems.  Examples of numerical issues that are ap-
  520. propriate to discuss in this workshop include: convergence rates; lo-
  521. cal minima; selection of starting points; conditioning (for higher
  522. order methods); characterization of the error surface; ... .
  523.  
  524. Ample time will reserved for discussion and informal presentations. We
  525. will encourage lively audience participation.
  526. =========================================================================
  527. Real Applications of Real Biological Circuits
  528.  
  529. Organizers: Richard Granger, UC Irvine and Jim Schwaber, Du Pont
  530.  
  531. Abstract:
  532. The architectures, performance rules and learning rules of most artificial
  533. neural networks are at odds with the anatomy and physiology of real
  534. biological neural circuitry.  For example, mammalian telencephelon
  535. (forebrain) is characterized by extremely sparse connectivity (~1-5%),
  536. almost entirely lacks dense recurrent connections, and has extensive lateral
  537. local circuit connections; inhibition is delayed-onset and relatively
  538. long-lasting (100s of milliseconds) compared to rapid-onset brief excitation
  539. (10s of milliseconds), and they are not interchangeable.  Excitatory
  540. connections learn, but there is very little evidence for plasticity in
  541. inhibitory connections.  Real synaptic plasticity rules are sensitive to
  542. temporal information, are not Hebbian, and do not contain "supervision"
  543. signals in any form related to those common in ANNs.
  544.  
  545. These discrepancies between natural and artificial NNs raise the question of
  546. whether such biological details are largely extraneous to the behavioral and
  547. computational utility of neural circuitry, or whether such properties may
  548. yield novel rules that confer useful computational abilities to networks
  549. that use them.  In this workshop we will explicitly analyze the power and
  550. utility of a range of novel algorithms derived from detailed biology, and
  551. illustrate specific industrial applicatons of these algorithms in the fields
  552. of process control and signal processing.
  553.  
  554. It is anticipated that these issues will raise controversy, and half of
  555. the workshop will be dedicated to open discussion.
  556.  
  557. Preliminary list of speakers:
  558.         Jim Schwaber, DuPont
  559.         Bbatunde Ogunnaike, DuPont
  560.         Richard Granger, University of California, Irvine
  561.         John Hopfield, Cal Tech
  562. =========================================================================
  563. Recognizing Unconstrained Handwritten Script
  564.  
  565. Organizers: Krishna Nathan, IBM and James A. Pittman, MCC
  566.  
  567. Abstract:
  568. Neural networks have given new life to an old research topic, the
  569. segmentation and recognition of on-line handwritten script.
  570. Isolated handprinted character recognition systems are moving from
  571. research to product development, and researchers have moved
  572. forward to integrated segmentation and recognition projects.
  573. However, the 'real world' problem is best described as one of
  574. unconstrained handwriting recognition (often on-line) since it
  575. includes both printed and cursive styles -- often within the same
  576. word.
  577.  
  578. The workshop will provide a forum for participants to share ideas on
  579. preprocessing, segmentation, and recognition techniques, and the use
  580. of context to improve the performance of online handwriting recognition
  581. systems. We will also discuss issues related to what constitutes
  582. acceptable recognition performance.  The collection of training and
  583. test data will also be addressed.
  584. =========================================================================
  585. Time Series Analysis and Predic....
  586.  
  587. Organizers: John Moody, Oregon Grad. Inst., Mike Mozer, Univ. of
  588.             Colorado and Andreas Weigend, Xerox PARC
  589.  
  590. Abstract:
  591. Several new techniques are now being applied to the problem of predicting
  592. the future behavior of a temporal sequence and deducing properties of the
  593. system that produced the time series. We will discuss both connectionist
  594. and non-connectionist techniques.  Issues include algorithms and
  595. architectures, model selection, performance measures, iterated vs long
  596. term prediction, robust prediction and estimation, the number of degrees of
  597. freedom of the system, how much noise is in the data, whether it is chaotic
  598. or not, how the error grows with prediction time, detection and classification
  599. of signals in noise, etc.  Half the available time has been reserved for
  600. discussion and informal presentations. We will encourage lively audience
  601. participation.
  602.  
  603. Invited presentations:
  604.     Classical and Non-Neural Approaches: Advantages and Problems.
  605.        (John Moody)
  606.     Connectionist Approaches: Problems and Interpretations. (Mike Mozer)
  607.     Beyond Prediction: What can we learn about the system? (Andreas Weigend)
  608.     Physiological Time Series Modeling (Volker Tresp)
  609.     Financial Forecasting (William Finnoff / Georg Zimmerman)
  610.     FIR Networks (Eric Wan)
  611.     Dimension Estimation (Fernando Pineda)
  612. =========================================================================
  613. Applications of VLSI Neural Networks
  614.  
  615. Organizer: Dave Andes, Naval Air Warfare Center
  616.  
  617. Abstract: This workshop will provide a forum for discussion
  618. of the problems and opportunities for neural net hardware
  619. systems which solve real problems under real time and space
  620. constraints. Some of the most difficult requirements for
  621. systems of this type come, not surprisingly, from the military.
  622. Several examples of these problems and VLSI solutions will be
  623. discussed in this working group. Examples from outside the
  624. military will also be discussed. At least half the time will
  625. be devoted to open discussion of the issues raised by the
  626. experiences of those who have already applied VLSI based ANN
  627. techniques to real world problems.
  628.  
  629. Preliminary list of speakers:
  630.    Bill Camp, IBM Federal Systems
  631.    Lynn Kern, Naval Air Warfare Center
  632.    Chuck Glover, Oak Ridge National Lab
  633.    Dave Andes, Naval Air Warfare Center
  634.  
  635. \enddata{text822, 0}
  636.  
  637.  
  638. ------------------------------
  639.  
  640. End of Neuron Digest [Volume 10 Issue 14]
  641. *****************************************
  642.